L’Unesco s’inquiète des préjugés sexistes de l’intelligence artificielle générative


Les grands modèles de langage de Meta et d’OpenAI, qui alimentent leurs outils d’intelligence artificielle générative, véhiculent « sans équivoque des préjugés à l’encontre des femmes », selon une étude dévoilée jeudi 7 mars par l’Organisation des Nations unies pour l’éducation, la science et la culture (Unesco), à la veille de la Journée internationale des droits des femmes.

C’est notamment le cas de GPT 2 et GPT 3.5 d’OpenAI, au cœur de la version gratuite de ChatGPT, ainsi que Llama 2 de son concurrent Meta, relève l’instance onusienne dans un communiqué.

« Les modèles en open source, tels que Llama 2 et GPT 2, appréciés pour leur gratuité et leur accessibilité à un large public, présentent les préjugés de genre les plus significatifs », insiste-t-elle, jugeant toutefois « que leur nature ouverte et transparente peut constituer un avantage considérable pour traiter et atténuer ces préjugés grâce à une collaboration accrue au sein de la communauté scientifique mondiale ».

L’étude, menée d’août 2023 à mars 2024, a montré que les femmes sont décrites comme des travailleuses domestiques jusqu’à quatre fois plus souvent que les hommes et qu’elles sont fréquemment associées aux mots « maison », « famille » et « enfants », alors que pour les hommes, les mots « entreprise », « cadre », « salaire » et « carrière » sont privilégiés.

« Le pouvoir de façonner la perception de millions de personnes »

Les chercheurs ont, par ailleurs, demandé à ces interfaces de produire des récits sur des personnes de différentes origines et genres et les résultats ont montré que les histoires concernant les « personnes de cultures minoritaires ou les femmes étaient souvent plus répétitives et basées sur des stéréotypes ».

Ces entreprises « ne parviennent pas à représenter tous leurs utilisateurs », estime Leona Verdadero, spécialiste des politiques numériques et de la transformation numérique à l’Unesco, interrogée par l’Agence France-Presse.

Lire aussi | Article réservé à nos abonnés L’IA s’installe dans le quotidien des salariés

« Ces nouvelles applications d’IA ont le pouvoir de subtilement façonner les perceptions de millions de personnes, de telle sorte que même de légers préjugés sexistes dans le contenu qu’elles génèrent peuvent amplifier de manière significative les inégalités dans le monde réel », rappelle quant à elle Audrey Azoulay, directrice générale de l’organisation onusienne.

Pour lutter contre ces préjugés, l’Unesco recommande aux entreprises du secteur de diversifier leurs équipes d’ingénieurs, en y associant notamment davantage de femmes, qui ne représentent que 22 % des effectifs employés à l’échelle mondiale dans le secteur de l’intelligence artificielle, selon les chiffres du Forum économique mondial.

L’organisation invite, en outre, les gouvernements « à élaborer et à mettre en œuvre des cadres réglementaires clairs, et les entreprises privées à effectuer un contrôle continu et une évaluation des biais systémiques ».

Lire aussi | Article réservé à nos abonnés Intelligence artificielle : réflexions sur ses vrais dangers

Le Monde avec AFP

Réutiliser ce contenu


Source
Catégorie article Politique

Ajouter un commentaire

Commentaires

Aucun commentaire n'a été posté pour l'instant.